Olyan sötét oldala is van a ChatGPT-nek, amelyről senki sem beszél

2025. február 12. 09:24

Az OpenAI mesterséges intelligenciája illegális forrásokból és jogosulatlanul gyűjtött adatokból tanult. Most persze ki vannak akadva, hogy a konkurencia ellopta az ő lopott adataikat.

2025. február 12. 09:24
Sam Altman - OpenAI - Photo Illustration

Aggasztó módon gyűjthet személyes adatokat az emberekről az OpenAI mesterséges intelligenciája, a ChatGPT, hiába állítja a cég ennek ellenkezőjét. Arra már többen is felhívták a figyelmet, hogy olyan forrásokból is dolgozik az MI, amelyek nem egészen legálisak, például több ezer olyan könyvet használt fel, amelyet árnyékkönyvtárakból szerzett meg. Még olyanokat is, amelyeket szerzői joggal védtek. Ennek kapcsán több per is folyamatban van már a cég ellen. 

Ezt is ajánljuk a témában

 

Vidákovics Attila, a DLabs alapítója az Indexnek most rámutatott: még ennél is aggasztóbb a személyes adatok kezelése, hiszen bár az OpenAI azt állítja, hogy nem memorizálja a képzési adatokat modelljük, ennek ellenkezője az igaz. Nemcsak megőrzi az információkat, hanem promptolási technikákkal lehetséges a képzési adatok kinyerése is. A DLabs vezetője szerint ez a probléma nem igényel különösebb technikai szakértelmet - bárki, aki képes promptokat megfogalmazni a ChatGPT számára, megfelelő türelemmel vagy szerencsével rátalálhat olyan módszerekre, amelyekkel kijátszhatja a rendszer védelmét.

Így könnyen személyes adatokat szerezhetnek meg a rendszer segítségével, emiatt is indult egy csoportos kereset Kalifornia államban. Ennek középpontjában  az a súlyos vád áll, hogy a vállalat megszegte internetfelhasználók millióinak jogait és magánszféráját. Az ügyvédi iroda hivatalos közleménye hangsúlyozta, hogy olyan valódi emberek képviseletét vállalták, 

akiknek személyes információit jogtalanul felhasználták egy rendkívül hatékony technológia kereskedelmi célú fejlesztéséhez.

Érdekesség, hogy az OpenAI egészen mostanáig jelentéktelennek tartotta a szerzői jogok és személyes adatok jogosulatlan felhasználásának vádjait, ám most éppen ők háborodtak fel a kínai DeepSeek megjelenése miatt. A konkurencia ugyanis elismerte, hogy a DeepSeek a ChatGPT-ből kinyert adatokkal tanult. Tehát azon adatokból, amelyek eleve megkérdőjelezhető módon jutottak az OpenAI-hoz. 

Nyitókép: Jonathan Raa / NurPhoto via AFP

Összesen 20 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
csihi-puhi
2025. február 12. 13:15
Mindenki lop. A lopó az akit elfognak.
Treeoflife
2025. február 12. 12:46
Nemcsak lopott könyvekből, felhasználhat minden olyan információt, amit interneten, keresztül akár bármely közösségi platformon megosztunk magunkról. Ami egyszer Internet bármely tárolójába fölkerül, az az MI részére elérhető, ha akarjuk, ha nem. Az MI csak annyit tud, amennyit a programozója megtanít. Ezen túl pedig lehetőséget kap arra, hogy milyen forrásból még milyen információkat értelmezzen, tároljon, és a működéséhez felhasználjon. Azt, hogy az értelmezést milyen módon végezze, azt is a programozója mondja meg. Amikor az hangzik el, hogy öntanuló is lehet, a "hogyan"-t szintén a programozója mondja meg. Tehát még az ideológiai formát is meghatározhatják, és ettől válhat veszélyessé, ha nem szabnak korlátot, hogy meddig mehet el. De ettől még nem lesz európai, amerikai, indiai, vagy akár orosz vagy kínai identitása. A különbségtételt egészen addig nem tudja megtenni, ameddig etikai értékítélő képességgel és/vagy lélekkel nem rendelkezik. Ez is helyettesíthető "csak" célirányosan.
istvanpeter
2025. február 12. 12:35
Az MI egy orbitális szélhámosság, amelynek a legfőbb célja és hatása, az emberi társadalom teljes szétverése és a digitális világrabszolga birodalom létrehozása és működtetése, amelyben a szuverén ember megszűnik.
pandalala
2025. február 12. 11:41
Az lesz a vicces, hogyha Elon Musk-nak tényleg sikerül megvennie a ChatGPT-t előállító OpenAI céget!! ;-)))
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!